Le comité d’éthique propose de davantage réguler les services comme ChatGPT que les modèles « open source »


Comment réguler les grands modèles d’intelligence artificielle (IA) sans limiter l’innovation ? Cette question sensible est au cœur des tensions autour de l’AI Act, le projet de règlement européen. Certains, dont le Parlement européen, veulent imposer des obligations fortes aux modèles de traitement du langage à l’origine de services comme ChatGPT. D’autres, comme le président de la République Emmanuel Macron et les start-up françaises Mistral AI ou LightOn, s’opposent à des mesures qui selon eux empêcheraient l’essor de fleurons européens dans ce domaine. Pour tenter de trouver une issue au conflit, le Comité national pilote d’éthique du numérique (CNPEN) propose une solution, dans un avis consultatif rendu mercredi 5 juillet.

« Nous proposons de distinguer entre les modèles mis sur le marché, soumis aux mêmes obligations fortes que les applications d’intelligence artificielle à haut risque, et les modèles publiés en libre accès, qui seraient seulement tenus d’être transparents et de publier des évaluations », explique Raja Chatila, professeur émérite à la Sorbonne et corapporteur de l’avis commandé par le ministre délégué au numérique, Jean-Noël Barrot.

Dans les modèles « mis sur le marché » seraient classés les interfaces proposées au grand public, comme ChatGPT, le désormais célèbre robot conversationnel lancé en décembre 2022 par l’entreprise américaine OpenAI. Ou ses concurrents comme Bard, de Google. Y seraient rangés également les grands modèles de traitement du langage que les entreprises peuvent interroger à distance, grâce à une interface appelée API, contre un paiement de quelques fragments de centimes de dollars par requête : parmi eux, GPT-4, d’OpenAI, ou leurs équivalents lancés par Google, par exemple. Seraient concernés de la même façon les modèles de génération d’image comme Dall E2 ou Midjourney.

Sans interface pour le grand public

En revanche seraient considérés « en libre accès » les modèles similaires publiés en open source, sans interface pour le grand public. Un mode de diffusion que la start-up Mistral AI, notamment, a dit vouloir adopter pour ses futurs logiciels. Ces modèles seraient seulement tenus d’être transparents, par exemple pour les données utilisées pour leur entraînement, et de publier des tests d’évaluation, par exemple sur les biais connus, comme le sexisme. Toutefois, dans le cas où une entreprise l’utiliserait pour un service jugé à haut risque dans l’AI Act (par exemple, pour un diagnostic de santé, l’accès à un service public ou à un emploi), il serait soumis à des obligations plus contraignantes.

Il vous reste 34.01% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.